#AI GPU
頻寬戰爭前夜,“中國版Groq”浮出水面
在AI算力賽道,輝達憑藉Hopper、Blackwell、Rubin等架構GPU,早已在AI訓練領域建立起了難以撼動的技術壁壘與行業地位。但隨著即時AI場景需求爆發,傳統GPU在面對低批處理、高頻互動推理任務中的延遲短板愈發凸顯。為破解這一痛點,輝達重磅出擊,斥資200億美元收購Groq核心技術,搶跑AI推理市場。這一金額不僅創下輝達歷史最大手筆交易、刷新了推理晶片領域的估值紀錄,更鮮明地昭示著輝達從“算力霸主”向“推理之王”轉型的意志。緊隨這一動作,據技術博主AGF消息進一步披露,輝達計畫在2028年推出新一代Feynman架構GPU——採用台積電A16先進製程與SoIC 3D堆疊技術,核心目的正是為了在GPU內部深度整合Groq那套專為推理加速而生的LPU(語言處理單元),相當於給GPU加裝了一個專門處理語言類推理任務的專屬引擎,直指AI推理性能中長期存在的“頻寬牆”與“延遲瓶頸”。這些動作表明:AI行業的競爭正從單純的算力比拚,轉向對單位面積頻寬的極致追求——這與輝達此前“大模型推理90%的延遲源於資料搬運,導致算力利用率常低於30%”的結論不謀而合。無獨有偶,AMD通過3D V-Cache持續驗證儲存靠近計算的效能邏輯;d-Matrix、SambaNova等明星AI推理晶片公司,更是聚焦流式執行與片上頻寬建構核心競爭力,用實際行動印證這一行業共識。頻寬戰爭打響,誰是“中國版Groq”?回看中國市場,AI浪潮推動下,國產大模型多點突破、強勢崛起,本土AI晶片企業集體爆發並密集衝擊IPO,資本熱度居高不下。然而,當輝達選擇通過Feynman架構來補齊推理短板時,就意味著誰能率先解決“頻寬牆”問題,誰就握住了下一輪周期的入場券。在這一背景下,國內賽道湧現出前瞻性佈局者。近日,半導體行業觀察注意到,一家源於北京大學物理學院的AI晶片公司——寒序科技(ICY Technology),宣佈完成數千萬元人民幣新一輪融資。這家企業以“超高頻寬推理晶片”為核心產品,被業內視為中國大陸少有的在技術路線層面正面對標Groq的前沿技術團隊。“中國版Groq”的名號,初見端倪。實際上,寒序科技的技術披露並非偶然,而是源於在內部保密原則下的長期的低調深耕。早在2024年9月與2025年11月,寒序科技就已聯合北京大學物理學院、電腦學院、積體電路學院,以及澳門大學模擬與混合訊號積體電路全國重點實驗室,先後承擔、主持兩項北京市科技計畫項目。他們前瞻性地鎖定0.1TB/mm²/s超大頻寬流式推理晶片研發,在省部級重大研發任務中,在北京市科學技術委員會的指導下,在任務書中全面對標Groq的技術路線與頻寬指標。這意味著,當Groq因LPU爆紅被視為“推理新範式”時,中國科研與產業團隊已在國內同步推進一條差異化的實現路徑。據瞭解,寒序科技採用“雙線佈局”建構核心競爭力:一方面,已發佈SpinPU-M系列磁機率計算晶片,推出1024位元全連接伊辛退火求解硬體,覆蓋組合最佳化與量子啟髮式計算市場;另一方面,本輪融資的核心看點——SpinPU-E磁邏輯計算晶片系列,直指大模型推理解碼(Decode)階段加速,以片上MRAM(磁性隨機儲存器)為核心介質,建構超高頻寬磁性流式處理架構。能看到,寒序科技並未跟隨主流GPU的片外DRAM/HBM或Groq的存算一體SRAM方案,而是選擇了片上MRAM這條更底層、更物理本征、更具長期想像力的技術路線。眾所周知,當前主流的AI計算範式面臨多重困境:採用HBM的GPU方案,頻寬受限於昂貴的2.5D/3D先進封裝,核心儲存器件HBM產能被海外巨頭壟斷且面臨出口管制;採用SRAM的Groq方案,則因SRAM單元面積大、成本高,單晶片儲存容量有限,難以規模部署千億參數大模型。面對這些行業普遍的困局,寒序科技源自北大物理學院,從凝聚態物理的角度,從第一性原理進行思考,利用本征功耗更低、速度更快的“電子自旋翻轉”,代替“電子電荷運動”來進行儲存與計算。而這種底層邏輯的革新,正是源於MRAM技術帶來的核心優勢。它兼具SRAM的高速、DRAM的高密度與快閃記憶體的非易失性等優勢,其直立結構的磁性隧道結,通過垂直微型化和CMOS工藝相容性,能夠大幅降低對複雜封裝的依賴,在成本、功耗和可靠性上具有顯著優勢。與SRAM方案相比,MRAM技術的差異化優勢十分突出:儲存密度領先:主流AI推理架構深度依賴片上SRAM以換取高速,但SRAM正面臨嚴峻的微縮困境。傳統SRAM每個儲存單元由6個電晶體(6T)組成,儲存密度低,儲存容量小,儲存典型的DeepSeek-R1-671B大語言模型可能需要數千片Groq LPU晶片,且5nm以下節點尺寸幾乎停止縮減;而MRAM天然採用1T1M(1個電晶體+1個磁隧道結)結構,單個MTJ可以執行SRAM 6個電晶體的儲存功能,同等晶片面積和工藝節點下,儲存密度是SRAM的5-6倍。工藝成本更低:MRAM的物理結構優勢,使其在國產工藝製程即便落後一代的情況下,性能指標也能對標甚至超越採用先進製程的SRAM方案。這意味著MRAM無需追逐極先進製程,大幅降低流片與量產成本(單片成本可降至原來的十分之一以下),同時保障了供應鏈自主可控。非易失性與高能效:MRAM斷電後資料不丟失,無需像SRAM/DRAM那樣持續刷新,待機功耗接近零,具備快速啟動、低待機功耗、高耐用性等優勢;同時避免了SRAM的漏電流損耗,為邊緣端和雲端的大規模部署提供極佳能效優勢,大幅降低運行成本。通過自研的磁性存算一體流式架構,寒序科技將MRAM的器件優勢轉化為晶片級系統性能。據悉,SpinPU-E晶片架構的目標是將訪存頻寬密度提升至0.1-0.3TB/mm²·s,不僅能比肩以“快”成名的Groq LPU(0.11 TB/mm²·s),更是輝達H100(0.002-0.003 TB/mm²·s)的數十倍。據瞭解,輝達GPU的架構最初面向大規模訓練與圖形渲染場景設計,強調峰值算力與吞吐能力,並通過多級快取、動態調度和共享儲存來適配高度平行但相對粗粒度的工作負載。在大模型推理的Decode階段,GPU性能瓶頸主要來自對外部儲存(HBM)和複雜記憶體層級的高度依賴。該計算過程呈現出強序列性、小批次和頻寬主導等特徵,與GPU設計初衷明顯錯配。在實際執行中,GPU仍需要通過多級快取和共享儲存來訪問,資料到達計算單元的時間並不固定,不同計算單元之間也需要反覆等待和協調。這使得訪存延遲和執行順序經常波動,矩陣加乘單元很難按照固定節拍持續運行,算力難以穩定發揮。而寒序科技採用確定性的“磁性流式處理(MSA)架構”,將大規模MRAM Banks緊鄰矩陣加乘單元部署,並圍繞推理資料流建構多級流水執行路徑,使權重和中間啟動在局部高頻寬範圍內按固定順序流動。通過在硬體層面同時約束儲存位置、訪存頻寬、通訊路徑與執行節拍,該架構在Decode階段顯著降低了延遲抖動與外部儲存訪問依賴,實現更高的頻寬與更快、更穩定的推理性能。值得關注的是,MSA架構並非簡單的存內計算概念,而是圍繞推理場景,對資料流組織、儲存-計算耦合方式以及執行節拍進行重新設計,在保證超高頻寬的同時,顯著降低對先進製程與複雜封裝的依賴。有業內人士指出,這一路線與NVIDIA在Feynman架構中所釋放的訊號高度一致:未來推理性能的競爭核心,不再是算力規模,而是單位面積頻寬與執行範式。走出北大實驗室的秘密武器——“天時地利人和”SpinPU-E展現出的性能優勢,並非偶然的技術選擇,而是核心團隊跨學科積澱、全鏈條技術把控與前瞻性路線佈局的成果。據報導,寒序科技是國內首個有能力跑通從物理、材料、器件到異質整合、晶片設計、演算法的交叉團隊,核心成員源自北京大學物理學院應用磁學中心——國內磁學研究的頂尖高地,擁有近70年的磁學積澱,核心成員橫跨凝聚態物理、電子科學、電腦技術、人工智慧等多領域:首席執行長朱欣岳兼具凝聚態物理、人工智慧演算法與積體電路的交叉背景,曾主導多模態AI演算法開發、多顆高性能專用晶片研發,帶領團隊完成四輪市場化財務融資與產品化;首席科學家羅昭初作為MIT TR35入選者,曾於清華大學、蘇黎世聯邦理工學院完成自旋電子學、磁性計算的科研工作,深耕微納磁電子學與磁儲存/計算,擁有深厚的學術積累與Nature、Science正刊成果,團隊歷經多次流片驗證,既保有前沿技術探索的銳氣,又具備工程化落地的能力。相比純粹的架構創新,寒序科技這種“材料-器件-晶片-系統-演算法”的全鏈條視野和全端攻關能力,讓MRAM技術得以從底層原理到上層系統實現協同最佳化與突破,而非僅停留在邏輯和架構層面的修補。這也是寒序科技被視為精準踩中2030年行業時間軸的前瞻性下注的核心原因。這種對行業趨勢的精準踩點,不僅體現在技術路線的選擇上,或許也蘊含在對商業化路徑的思考中。回溯Groq的成長軌跡來看,其業務從核心的GroqChip LPU推理晶片起步,逐步延伸至加速卡、伺服器系統、資料中心叢集,最終建構了雲服務平台,形成了“晶片-硬體-系統-雲服務”的全端佈局。沿著Groq被驗證的商業邏輯向前推演,寒序科技大概也會沿著相似的路徑開展自己的業務版圖——以SpinPU-E磁邏輯晶片為起點,向上建構硬體產品矩陣,最終通過雲服務觸達更廣泛市場的全端路徑,以建構更強的技術壁壘和產業競爭力。更關鍵的是,這條路徑並非簡單的模式復刻,而是基於本土產業現狀的創新破局——當行業苦於HBM成本高企、SRAM微縮放緩之時,寒序科技沒有陷入“算力堆砌”的內卷,而是利用MRAM磁性計算新範式,在中國本土成熟供應鏈基礎上,築起了一座對標全球頂尖推理性能的頻寬高地。這種從底層物理原理出發的差異化競爭策略,或許正是其作為“中國版Groq”浮出水面的核心底氣。MRAM開啟新型儲存“黃金時代”破局“頻寬封鎖”寒序科技對MRAM技術的探索並非孤例,背後是一場從“備選”走向“必選”的新型儲存技術浪潮。尤其是在全球半導體產業的演進與地緣政治激盪背景下,為MRAM在內的新型儲存鋪就了一條通往AI算力核心舞台的“黃金賽道”。2024年12月,美國商務部工業與安全域(BIS)發佈新出口管制規則,明確限制向中國出口記憶體頻寬密度超過2GB/s/mm²的尖端儲存器。這一封鎖點,直指AI推理晶片的命門——頻寬。目前,輝達、AMD等巨頭極度依賴HBM,而HBM產能幾乎被SK海力士、三星、美光等海外儲存原廠壟斷,且受限於複雜的2.5D/3D先進封裝。同時,Groq所代表的SRAM路線價格極高(Groq 230MB片上SRAM記憶體的單卡售價2萬美金),在先進製程微縮上也已近極限。在此背景下,MRAM路線的戰略價值陡增。它不僅在物理特性上具備跨代超越SRAM的潛力,更重要的是,它能基於國產28nm/22nm等成熟製程實現超高頻寬,徹底規避對尖端工藝和海外HBM供應鏈的依賴。這不僅是技術路線的“備選”,更是中國半導體產業在算力領域破除卡脖子困境、實現差異化突圍的“必選”。有業內專家表示,這一戰略意義迫切需要國家有關部門給予更高重視與政策傾斜。MRAM不僅是單一儲存技術的革新,更能帶動磁性材料、磁電子器件、存算一體架構等全產業鏈突破,有望徹底改變國內在HBM領域的落後局面和SRAM對先進製程的依賴,為AI算力產業打造自主可控的“第二曲線”。全球共振,商業化拐點已至?當前,產業界正在用實際行動表明,MRAM不再只是實驗室裡的美好構想,而是憑藉獨特優勢正成為全球半導體產業佈局的重點。其中,晶圓代工龍頭與晶片大廠均在積極佈局:台積電、三星、英特爾、SK海力士、IMEC等憑藉其先進的技術研發和大規模生產製造能力,已明確將嵌入式MRAM推進到22nm、16nm甚至更先進節點,持續提升MRAM的性能和整合度。恩智浦與台積電合作推出16nm FinFET車規級eMRAM,應用於其S32系列高端MCU,實現寫入速度比傳統快閃記憶體快10-15倍、耐久性超百萬次;瑞薩電子也推出了基於22nm工藝的STT-MRAM技術,瞄準汽車MCU市場;GlobalFoundries、Everspin在12nm和22nm工藝上緊密合作,將MRAM納入工業級和車規級量產方案;Avalanche與聯電攜手合作推出22nm STT-MRAM,在工業級和航天級市場擁有深厚積澱。據LexisNexis資料統計,2004-2013年間,MRAM市場的專利申請量保持穩定,每年約有300至400項專利申請。需要注意的是,圖表末尾的下降並不代表興趣的下降,而是專利申請和公開之間的時間存在滯後。這些頭部廠商的集體行動,清晰印證著MRAM正從“備選技術”升級為“主流方案”,在汽車電子、邊緣AI、高端計算等領域的商業化落地進入爆發前夜。回看國內市場,本土半導體廠商同樣敏銳捕捉到了新型儲存技術的發展機遇,積極佈局相關領域。RRAM領域湧現出昕原半導體、銘芯啟睿、燕芯微等玩家;MRAM賽道,寒序科技、致真儲存、馳拓科技、凌存科技、亙存科技等紛紛嶄露頭角,為國內MRAM的發展奠定了產業基礎。相對於RRAM基於電子電荷遷移,是一種統計物理範疇下的阻變器件;MRAM的存取機理是基於自旋的確定性兩態翻轉,更加可控、精準,大規模製造下器件一致性、器件壽命極限都更有優勢與潛力。兩者均被台積電等半導體巨頭作為下一代面向AI的儲存技術重點押注。具體來看,本土MRAM廠商各有側重,多數主要集中於儲存、加密、嵌入式控制等傳統領域,例如:致真儲存專注於磁性隧道結(MTJ)的核心器件研發與製造工藝,掌握從材料研發到器件製造的全鏈路技術,擁有國內唯一的8英吋磁儲存晶片專用後道微納加工工藝中試線。近期與北京航空航天大學聯合攻關,研製出全球首顆8Mb容量自旋軌道力矩磁隨機儲存器晶片(SOT-MRAM),實現SOT-MRAM容量規模化突破。馳拓科技專注於MRAM儲存晶片的技術研發與生產製造,建有12英吋MRAM量產中試線,是國內首家實現MRAM量產的企業。近期成功突破垂直磁化體系技術瓶頸,儲存器件TMR關鍵指標比肩國際頭部代工廠量產的STT-MRAM。凌存科技專注於儲存模組開發,致力於將MRAM技術從核心器件層面推向終端應用,成功開發了世界首款高速、高密度、低功耗的儲存器MeRAM原型機及基於MeRAM的真隨機數發生器晶片,產品廣泛應用於車載電子、高性能運算、安全等領域。寒序科技則獨闢蹊徑,與多數國內MRAM企業不同,其以MRAM為核心介質建構計算晶片,將MRAM的物理優勢轉化為算力與頻寬優勢,開闢了“磁性計算”這一全新賽道,致力於從計算層面引領國內MRAM技術從利基低毛利領域向高端市場跨越,成為國內MRAM技術從儲存替代向計算革新跨越的關鍵力量,舉起大旗與國內磁學領域全面擁抱合作,力爭一同搶佔全球“磁計算”的戰略高地。綜合來看,從器件、裝置、製造到系統應用,國內產業鏈的前期佈局已具備支撐本土MRAM技術產業化與生態發展的基礎。尤其是寒序科技的差異化定位,進一步填補了國內MRAM從儲存到計算的關鍵空白,為後續誕生更多行業廠商提供了土壤和必然性。生態共建:國產MRAM的“磁計算”革命根據市場研究機構Precedence Research資料顯示,2024年全球MRAM市場規模估計為42.2億美元,預計從2025年的57.6億美元增長到2034年的約847.7億美元,復合年增長率高達34.99%。雖然前景廣闊,但MRAM的大規模爆發和商業化落地仍需產業合力,需要產業鏈上下游凝聚共識,共同建構生態。結合國際經驗和國內產業的發展現狀來看,更深度的產業合作與資源傾斜或許是推動MRAM技術發展的有力舉措。例如,國家有關部門可以給予MRAM技術更多重視,加大資金與政策支援,積極推動MRAM這一有希望在頻寬領域實現“變道超車”的關鍵技術。同時,借鑑台積電、三星、GlobalFoundries等頭部廠商對MRAM的關注與投入力度,國內代工廠或許也應加強對MRAM的工藝研發與資源投入,積極與國內廠商共同開展技術研發與工藝最佳化,爭取儘早打通“設計-製造-封測”的本土化鏈路,形成協同創新的合力,降低MRAM晶片的流片成本與量產門檻。還有一點不可忽視。輝達收購 Groq核心技術,計畫在Feynman架構中整合LPU單元的案例,充分證明了“通用算力+專用引擎”的協同優勢和行業趨勢。這一案例極具啟示價值。筆者認為,在未來提升AI推理效率的行業共識下,國內AI晶片廠商應抓住這一變革機遇,加強與在新型介質與架構上具備底層創新能力的團隊的合作力度,打造兼具通用算力與專用推理性能的新技術路徑,快速補強技術短板,建構差異化競爭力。產業界正釋放清晰訊號:以MRAM為代表的新型儲存,已成為後摩爾時代的核心焦點。地緣政治的戰略訴求、國際大廠的技術押注、國內產業鏈的長期積澱,再加上寒序科技的差異化突破,多重力量共振之下,MRAM正逐漸邁入產業化的“黃金時代”,有望成為中國AI晶片產業實現換道超車的關鍵抓手。五年後,誰將主導下一代推理晶片?當摩爾線程、沐曦、天數、壁仞等國產AI晶片公司接連叩響資本市場的大門,一個時代的答卷已然清晰。它們的密集上市,標誌著中國在基於傳統GPU架構的算力競賽中,完成了從無到有的突圍,進入了國產替代的收穫期。如果說上一代AI晶片的競爭是“算力競賽”,那麼下一代的分水嶺將是“誰能率先跨過頻寬牆”。在這個關鍵轉折點上,兩條路徑清晰呈現:一條是Groq選擇的極致SRAM片上整合路徑,用極高成本將頻寬推向極限,並因此獲得了行業霸主輝達以數百億美元估值的戰略整合;另一條,則是以MRAM為代表的新型儲存介質路線,為突破頻寬瓶頸提供了一種更具根本性,也更符合長期成本與供應鏈安全需求的方案。數年後,當AI推理進入“頻寬決勝”的新時代,晶片市場或許不再僅有算力的巨獸,主導市場的佼佼者還將屬於那些能夠率先在“頻寬戰爭”中沉澱出護城河的先行者。正如Groq在矽谷用SRAM驚豔了世界,行業演進的邏輯暗示:“中國版Groq”的出現也將不再是懸念。在這個征程中,中國半導體產業各方也都在積極擁抱AI,拓展產品品類,謀劃新的增長曲線。而寒序科技正依託MRAM磁性計算的新範式,給出“中國版”的實現路徑——並且,這條路,他們早在多年前,就已開始默默鋪設。 (半導體行業觀察)
阿里雲 2026 年目標:拿下中國 AI 雲市場增量的 80%
“AI Infra 就是雲端運算本身。”100 多年前,電力首次進入工廠,許多工廠主做了一個看似合理的決定:保留複雜的蒸汽機傳動軸和皮帶系統,只用電動機替換蒸汽機。結果令他們大失所望:動力更強了,生產效率幾乎沒有同步提升。接下來的 20 年,他們才逐步意識到,電力帶來的真正變革不只是簡單替代動力源,而是把它嵌入到不同的業務單元中,用不同類型的電機驅動鑽頭、傳送帶等,生產力才迎來爆發。這是阿里雲希望給企業深入應用 AI 提供的能力。他們認為,AI 時代客戶要的不只是單一的模型或雲的能力,而是更低成本使用更強模型時,有更靈活的綜合體驗。AI 雲應該像當年的電力真正提高工業生產力時那樣,提供多層次的服務,全面嵌入到企業的業務流程中。這一判斷有業務資料支撐:在阿里雲上呼叫大模型 API ( MaaS 服務)的客戶中,有七成也同時在使用其 GPU 算力服務。阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光說,第一批深度使用 AI 的客戶,會把場景分成不同檔次:不只是簡單呼叫大模型 API,還會用內部資料精調或者後訓練基礎模型,或者自己從頭訓練一個模型。在劉偉光看來,AI 給雲端運算行業帶來的變化才剛剛開始,整個雲端運算體系架構都要為 AI 重構,“MaaS 增長潛力很大,但關鍵是打贏 AI 雲新增的全量市場”,要建立軟硬一體的 AI 雲全端能力,推動企業用更低成本呼叫更強的 AI 模型,解決不同層次、不同場景問題,“這才是競爭中的勝負手”。146 個 行業客戶深度調研:Token 質量比數量重要“如果今天所有的 AI 應用每天只能免費用 100 次,你會用它做什麼?”這是劉偉光 2025 年走訪了 146 個客戶後反覆思考的問題。 他的結論非常直接:沒有人會把它浪費在寫段子或閒聊上,一定會做最重要的東西——對工作最有幫助的決策、對家庭生活最關鍵的建議。在他看來,這是企業使用大模型與個人使用者的本質區別。個人使用者可能為了娛樂消耗 Token,但追求效率的企業,每一次 Token 的交換都有成本。他們不僅要為 Token 付費,業務線上的人力、時間也是投入。很難想像一個年輕的工程師面對裝置故障時,還需要多輪對話才能得到解決方案,需要更快的響應、能讓他迅速解決問題的指南。同樣,基金公司的交易員用 AI 輔助捕捉交易訊號時,也很難容忍模型動輒陷入沉思,然後給出長篇大論,再問一句 “是否需要我幫你整理得更完善”。傳統行業的企業正在用不同的方式,儘可能避開 AI 的短板、提升效率。比如汽車診斷公司,用 30 年積累的產業檢測報告做出來遠端幫助汽修的大模型,才用到診斷報告中;基金公司會用沉澱 20 多年的資料和交易的行為跟模型結合,把各種形式的非結構化資料(如文字、語音、圖像等)轉化為可供投資參考的標準化資訊。企業也希望充分挖掘 AI 的潛力。中國兩家農牧業巨頭公司都在用千問做相同的事情,他們不僅嘗試用 VL(視覺大模型)識別豬的數量,還用它來識別豬的異常行為,檢測豬的健康與活性,或者是開發獸醫大模型解決專業人才短缺問題。還有頭部照明公司接入千問後,不再侷限簡單的開關燈或者調控色溫,還用 AI 理解使用者模糊的指令,用更流暢的對話打造更聰明的端側語言模型,讓人與光的互動更自然。而企業一旦找到合適的方式把 AI 嵌入業務流程中,就會是嚴肅和連貫的。線上招聘行業中的每一家公司,幾乎都在引入 AI 簡歷篩選、智能化面試、自動生成面試記錄。當招聘專員習慣用 AI 輔助工作後,就會形成新的工作流,每天都會使用,不會受到個人喜好影響。“個人消費者使用 AI 的情況會有波動,但企業級市場只會不斷增長。” 劉偉光說,而且使用的廣度和深度會不斷加強,很多場景還沒有解鎖,“如果 AI 能把車損定損給改了,那絕對是一種 ‘革命’。”2024 年雲棲大會上,阿里巴巴集團 CEO 吳泳銘在演講中稱,生成式 AI 最大的想像力,絕不是在手機螢幕上做一兩個新的超級 App,而是接管數字世界,改變物理世界。過去一年中國 AI 企業市場的發展證實了他的判斷。AI 已不只在手機裡面作為應用程式,而是出現在更多的載體中,包括眼鏡、耳機、學習機、玩具、健身器材、汽車、機器人等全品類硬體裝置中。這種不同層次、不同場景的需求,當下無法用單一的模型 API 服務滿足。在美國市場,原本已經給企業提供工具的 SaaS 行業,大模型呼叫量規模持續上漲,提供了一種相對標準化的方案。而在 SaaS 行業未能發展起來的中國市場,傳統行業偏向定製服務解決特定場景問題,往往需要後訓練或者微調大模型。雲端運算公司提供這樣的服務,在一定程度上為企業提供了類似 SaaS 的服務。“現在所有 MaaS 服務加一起,在中國雲端運算市場、甚至 AI 雲市場佔比都不高。MaaS 的空間當然非常大,但不是今天。” 劉偉光說,只統計公有雲市場大模型 API 的呼叫量,無法代表 AI 雲全貌。真實的 Token 消耗量,要把 MaaS 平台 API 呼叫、公共雲 GPU 推理叢集產生 Token、私有化模型部署產生 Token,裝置端模型產生的 Token 等全部統計在內。“冰川下的 Token 消耗非常大,卻無法統計。而且企業用 AI 還處於轉型早期, 90% 以上的企業還沒有真正行動起來,未來肯定是百倍的增長。”但可以觀察的是,只要基礎模型的性能持續提升,雲廠商深入到技術堆疊的每一層提供服務,改進推理能力、節省成本,就可以帶動更多行業的更多客戶用 AI 解決問題。做 AI 時代的基礎設施,承接不同層次的需求輝達 CEO 黃仁勳曾拋出一個著名的論斷:GPU 叢集就是 “Token 工廠”,輸入的是能量,輸出的是 Token。這是典型的晶片公司視角,把 AI 生產過程簡化為了物理層面的能量轉換。對於雲廠商來說,如果只是從事算力轉售業務,現在很難提供可用的 AI 服務。他們必須用系統工程能力,儘可能提升現有算力效率,針對不同行業、不同層次的企業提供模型服務。這也是阿里雲的選擇:做 AI 時代的基礎設施。用劉偉光的比喻來說,阿里雲正在搭建的是一套現代化的自來水廠,而不只是水(大模型 API)的搬運工,還要維護水源地(開源模型)、搭建淨化車間(資料清洗與模型訓練平台)、鋪設輸水管網(高性能網路),以及處理污水(安全治理)等。在這套體系中,阿里雲能夠提供當前不同類型的 “用水” 需求:MaaS(直供水服務): 就像家庭擰開水龍頭就能用水,企業或者開發者不用關心底層複雜的管網,直接呼叫 API,開箱即用,按需付費。這是最輕量的接入方式。PaaS(工業用水服務): 類似於工廠需要特定的水源,企業可以獲得基礎模型,直接用 “開源模型” 在阿里雲平台上微調或者自己後訓練,然後部署到合適的環境中。IaaS(水處理基礎設施): 像是將經過初步淨化、萃取後的水源,輸送給飲料廠或啤酒廠,企業可以用阿里雲提供的算力和基礎軟體,用來訓練獨家配方的 “飲料”,比如自動駕駛模型、各種垂類大模型等等。阿里雲已經有了初步成績。根據市場調研機構 Omdia 資料,2025 年上半年,中國 AI 雲整體市場(AI IaaS+PaaS+MaaS)規模達 223 億元,阿里雲佔比 35.8 %,超過第二到第四名總和。搭建這套全面的基礎設施,不僅需要高昂的投入,還要有戰略決心。2025 年 2 月,阿里宣佈未來三年將投入超過 3800 億元,用於建設雲和 AI 硬體基礎設施,總額超過去十年總和。僅僅是 2025 年前三個季度,阿里用於建設 AI 資料中心等的資本開支就兌現了 950 億元。在基礎模型層面,阿里持續投入訓練不同尺寸、不同類型、不同模態的基礎模型,並投入資源把它們做到第一梯隊。比如視覺生成模型萬相 2.6 性能媲美 OpenAI 的 Sora 2;Qwen-Image-Layered 是業界首個能實現圖像分層精準編輯的模型;Qwen3-Max 的性位居全球模型性能榜單前列。阿里選擇把這些模型開源,提供給各行各業的團隊或企業使用,其中 Qwen 的衍生模型數量超過 18 萬,規模位居全球第一。作為基礎設施,阿里雲上長出來的不只有阿里自研的模型,月之暗面也在阿里雲上訓練 Kimi 系列模型,以及許多智駕團隊也用阿里雲訓練模型。與此同時,阿里雲也提供了一整套體系能力,支撐 AI 時代新誕生的產品迅速發展,除了阿里體系的千問 App,還有螞蟻集團的靈光、阿福,以及月之暗面的 Kimi 應用、MiniMax 的海螺等。儘管當前各行各業應用 AI 還處於早期階段,但定位基礎設施的阿里雲,也在探索更新的產品形態,為接下來的 AI 應用爆發做好準備。最典型的例子就是阿里正在開發千問 App 的 Agent 版本。它不只侷限於使用者提問,還能夠呼叫淘寶比價、使用高德導航,甚至阿里所有的服務都有可能成為它的外掛。最終這些在阿里內部業務和行業頭部公司驗證過的能力,都會沉澱在阿里雲中,成為對外提供服務的產品。讓客戶具備長期、可持續地產生和使用智能的能力,而不是把客戶鎖定在某一種計量方式裡。AI 加速推動客戶上雲AI 正在給雲廠商帶來了新的增長動力。無論是 AWS、微軟 Azure、Google Cloud 還是阿里雲,規模都在迅速增長。但提供動力的不只是 GPU 用量或者大模型 API 的呼叫。阿里雲團隊觀察到, 在阿里雲上使用這些服務的客戶群體,他們在計算、儲存、網路以及巨量資料等產品上用量的增長,高於整個大盤的增長。“AI 會加速推動客戶上雲。” 劉偉光說,客戶為了用好 AI,不得不將資料全面上雲。企業想要讓一個 Agent 產生價值,基礎模型只是一個方面,高品質的業務資料同樣重要。微軟 Azure 的增長邏輯類似,出售 OpenAI 的基礎模型的 API 服務只是其中一個方面,更充足的動力來自企業為了在業務中應用更強的模型,把分散在本地與各系統中的內容與資料,遷移到了更方便模型呼叫的雲產品中。為高並行 Web/HTTP 請求設計的傳統雲端運算架構,難以高效支撐這樣的需求。甲骨文重新獲得增長動力,很大一部分因素就來自於部署 RDMA(遠端直接記憶體訪問)高性能網路和自治資料庫,適應了大模型訓練、推理的需求。這直接改變了公共雲端運算服務在中國市場的前景。此前多年,中國雲端運算公司並不像 AWS 等海外雲平台那樣,公共雲客戶遍佈各行各業,囊括美國證券交易所、大型石油公司、銀行業巨頭等,做大規模就能擁有利潤。在中國雲端運算市場,平台依賴的電力、頻寬等基礎設施成本並不受企業自身控制;部分傳統企業出於資料安全、合規或歷史慣性等原因,仍傾向於自建資料中心。“阿里雲的基礎雲架構,為 AI 重做了一遍。” 劉偉光說,AI Infra 並不是一個特定的垂直方向,就是雲端運算本身,不僅需要規模化、安全和穩定,更需要雲上的跨服務流轉能力,比如新型的向量資料庫、高效的巨量資料清洗平台、靈活的開發框架,滿足企業不同層次、不同場景使用  AI  的配套軟體體系。在阿里雲看來, AI 時代雲端運算平台的競爭力在於 “軟硬一體化” 的體系能力:硬體不只是晶片,而是圍繞 GPU 算力建構的整個高性能底層架構;軟體則是對模型的理解、最佳化和調度能力。“阿里雲的目標是拿下 2026 年中國 AI 雲市場增量的 80%。” 劉偉光說,但是下一年增量的 10% 都會大於上一年的全量。所以過去取得了什麼成績並不重要,變化才剛剛開始。 (晚點LatePost)
2026年經濟、政策和大類資產展望
摘要2026年將是中國十五五開局之年,傳統行業尋底、新興行業擴張,新舊動能轉換,帶來新機遇。關鍵詞:大周期、聯準會降息、貿易摩擦、出海、AI超級應用爆發、房地產二八分化、信心牛、大宗。宏觀經濟有自身的運行規律,2026年將是六大周期疊加的結果:經濟社會大周期、創新周期、房地產周期、產能周期、庫存周期、債務周期。1、百年社會經濟大周期末期,舊秩序瓦解,新秩序重建,收入差距、民粹主義、社會撕裂、逆全球化、地緣動盪問題日益嚴重。二戰以來全球經濟進入空前繁榮期,這是推行自由貿易、自由市場的結果,但是也帶來收入差距的巨大鴻溝,導致民粹主義指數回到1929年大蕭條前的水平,導致社會撕裂、逆全球化、地緣動盪、軍備競賽,以AI引領的科技革命不僅無法解決,反而會加重收入分配問題的嚴重性。在這樣的大背景下,大國之間的互信削弱,黃金和軍工崛起。2、創新周期迎來第四次科技革命,這是改變財富命運和國家實力的新一輪康波周期,堪比IT網際網路革命,全球AI競賽將開啟大規模新基建資本開支。AI革命正處於爆發初期,隨著GPU、大模型技術快速迭代,大規模部署,成本快速下降,AI大規模商業化落地的超級應用時代到來,AI助理、無人駕駛、AI創新藥、人形機器人將改變世界。未來每個都將是AI人,每家公司都將是AI公司。各國正在開展一場AI爭霸的軍備競賽,帶動大規模資本開支。AI泡沫會短暫出現,但終將被未來的商業化買單,任何產業都會經歷萌芽、成長、爆發、成熟的階段。3、房地產周期進入大分化時代,出現二八分化現象。“房地產長期看人口、中期看土地、短期看金融”。隨著人口紅利結束、城鎮化進入尾聲、20-50歲購房人群減少、老齡化少子化到來,房地產告別高增長的普漲時代,但由於後房地產時代,人口往都市圈城市群集聚,未來房地產市場將呈現二八分化。2026年,預計20%人口流入的核心城市、核心區域將率先觸底,80%人口流出的低能級城市將面臨漫長陰跌。房地產市場走穩還需要政策繼續發力,比如放鬆限購、降低利率、大規模住房保障銀行收儲。4、產能周期新舊交替,傳統行業在市場力量和反內卷推動下產能出清,新質生產力帶動大規模新基建投資。傳統行業產能周期觸底,有望供求格局改善,價格和企業利潤修復。中國“十五五”規劃提出“搶占人工智能產業應用制高點”,這場由人工智慧驅動的新基建浪潮,將拉動算力、電力、銅等大規模投資,AI產業鏈的資本開支進入上行周期。5、庫存周期觸底回升,回升力度受長周期力量壓制。“反內卷”政策推動工業產品價格和企業利潤回升,庫存周期從被動去庫存向主動補庫存過渡,但回升力度偏弱,行業分化加劇,內需修復的基礎仍有待加強,外需面臨不確定性。2026年物價有望走出通縮,三大因素:反內卷,外部輸入性通膨,新質生產力投資。6、債務周期仍待破解,居民部門資產負債表仍需修復,財稅改革提速破題土地財政。居民部門受房地產市場影響仍在去槓桿,新質生產力企業大規模加槓桿,地方政府財政擴張受債務約束,2026年有必要加大財政、貨幣政策逆周期調節力度,重點支援新質生產力。外部環境:2026年,受關稅影響,全球經濟承壓;美國經濟冰火兩重天,人工智慧浪潮帶動資本開支擴張,但傳統製造業競爭力受關稅和通膨影響削弱,就業市場和通膨粘性對美國經濟構成挑戰;新任聯準會主席履新,預計鴿派,聯準會開啟積極的寬鬆周期,可能會持續大幅降息;川普面臨中期選舉,不排除政策多變;中美經貿關係短暫緩和,變數仍然較大。政策展望:“十五五”開局之年,五大政策值得期待。2026年總基調預計延續寬鬆,重點鼓勵新質生產力,五大政策值得期待。一是貨幣政策適度寬鬆,預計降准降息;二是財政政策力度保持積極,重點支援戰略新興產業和民生;三是房地產政策從促進止跌回穩到全面放開,建構新模式,鼓勵好房子;四是內需政策,投資於人和投資於物相結合,提高居民消費率;五是供給端“反內卷”,出清過剩產能,引導優質產能擴張。大類資產展望:股市“信心牛”,AI爆發,大宗元年,房地產二八分化。我們在2024年9月市場低谷提出“信心牛”和“東昇西落”,提出隨著宏觀政策迎來超預期放鬆拐點,各界對中國資產和經濟前景的信心改善。展望2026年:1)A股信心牛繼續,牛市邏輯仍在,預計走出慢牛長牛行情,主線是科技,關注AI、算力、半導體、智能駕駛、創新藥、儲能、固態電池、商業航天、軍工等。2)聯準會降息和去美元化,大宗商品元年、非美股市受益。3)人民幣匯率升值,主因聯準會降息周期、中美利差縮小以及中國出口競爭力提升。4)一二線城市核心區域房價有望觸底,低能級城市有價無市。正文1百年社會經濟大周期末期,舊秩序瓦解,新秩序重建,收入差距、民粹主義、社會撕裂、逆全球化、地緣動盪問題日益嚴重社會經濟大周期的運行規律是增長與分配、效率與公平的周而復始。物極必反,否極泰來。當某一端力量過於集中,經濟社會內部自身也會醞釀逆相反的周期力量,這種新舊秩序調整將帶來內外部的陣痛、摩擦和動盪,直到舊秩序瓦解,新秩序重建,新周期到來。二戰以來,全球經濟進入空前繁榮期,這是推行自由貿易、自由市場的結果,但是也帶來收入差距的巨大鴻溝。社會撕裂、逆全球化、地緣動盪、軍備競賽,民粹主義指數回到1929年大蕭條前的水平。民粹主義強調底層民眾的利益和訴求,反對精英階層,具有情緒化特點,傾向於將複雜問題簡化為民眾與精英的對立。這樣的時代背景把川普代表的迎合民粹主義的政治人物推向歷史舞台,2025年在全球掀起關稅戰,截至2025年11月17日,消費者面臨的平均實際關稅稅率為16.8%,為1935年以來的最高水平。在這樣的大周期背景下,美國從全球秩序的維護者變為破壞者,動搖美國霸權三大根基。美國霸權地位建立在軍事、科技、金融三大霸權之上,本質是有能力輸出並維護全球秩序這一公共品。隨著美國製造業衰落、貧富差距拉大、社會日益撕裂、民粹主義盛行、向全球大打貿易戰、對外轉移矛盾、政府債務不斷創新高、貨幣無底線超發,美國成為全球秩序的破壞者。這導致三大霸權出現動搖或裂痕。軍事上,美國優先,留下巨大權力真空,大國之間不信任加劇,開啟軍備競賽,地緣政治動盪。過去很多經濟體依賴美國軍事庇佑,但俄烏衝突暴露了過度依賴單一安全盟友的風險,各國不得不重新審視自身國防安全建設。全球開啟軍備競賽,地緣動盪加劇。科技上,美國科技創新能力依舊強勁,但以AI引領的科技革命不僅無法解決、反而會加重收入分配問題的嚴重性。2025年4月5日,美國財政部長貝森特透露,美國排名前10%的人持有88%的股票資產,底層50%的人基本沒有股票。而且美國將科技封鎖、晶片武器化,隨意施加制裁禁運、禁止國際人士學習交流,科技成果的市場轉化和落地場景受限。金融上,全球開啟去美元化處理程序,轉向加倉黃金。在過去相當長的時間,聯準會尚能保持貨幣紀律性,美元在全世界範圍內被認可和流通,成為全球主要的儲備和支付貨幣。但隨著美國政府債務不斷創新高、貨幣無底線超發、美元武器化,越來越多央行開啟去美元化處理程序,減少美元儲備、尋求繞開SWIFT系統的通道、增加黃金配置。2018-2025年,美元在全球央行外匯儲備的佔比下降了4個百分點,而黃金佔比大幅上升了12個百分點,黃金儲備在全球央行平均佔比上升至22%。我們處在百年社會經濟大周期末期,全球秩序重構,對於中國而言,最好的應對就是做好自己的事,打鐵還需自身硬。當美國掀起“中國+1”,這也是中國企業紮根全球的機會窗口,從出口到出海,從紅海走向藍海,大航海時代正在到來!2創新周期迎來第四次科技革命,這是改變財富命運和國家實力的新一輪康波周期,堪比IT網際網路革命,全球AI競賽將開啟大規模新基建資本開支第四次科技革命是改變財富命運和國家實力的新一輪康波周期。創新周期,又稱康波周期,60年一輪。上一輪康波周期是IT網際網路技術驅動,從上世紀70-80年代醞釀,在90年代和2000年初大爆發,2007年前後到達繁榮的頂點,隨後過去十多年屬於康波的蕭條期。從2020年以來,AI技術革命正在引領新一輪康波周期,這是新的人生和財富逆襲機會。AI革命處在爆發期,泡沫會短暫出現,但終將被未來的商業化買單,任何產業都會經歷萌芽、成長、爆發、成熟的階段。市場擔心現在我們正處在一個與2000年網際網路剛開始時高度相似的AI泡沫中,未來泡沫可能會破裂。我們必須承認泡沫確實階段性存在,但泡沫化正是AI從實驗室邁向大規模應用的必經階段。當年的網際網路浪潮,先是鋪光纖、建基站,成本極高,但當基礎設施鋪設完畢,使用成本大幅下降後,誕生了淘寶、京東、微信、抖音、亞馬遜、FACEBOOK這樣的超級應用,以及偉大的公司,十倍百倍的大牛股。如果說第一波AI浪潮是賣鏟子的基建狂魔時代,那麼第二波浪潮就是AI超級應用和中國力量的爆發時代。隨著技術擴散,未來的GPU競爭必然加劇,硬體暴利時代將會終結。中國企業最擅長的就是將昂貴的科技產品變成普惠的基礎應用,從太陽能、新能源汽車到晶片,無一例外。一旦技術路徑跑通,中國國產晶片性能追平,利用大規模生產和市場的優勢,中國國產GPU的成本可能只有輝達的幾分之一。隨著GPU、大模型技術快速迭代,大規模部署,成本快速下降,AI大規模商業化落地的超級應用時代到來。AI算力成本大幅下降後,商業化落地越來越近了,也就是超級應用的新機會正在出現。AI助理、無人駕駛、AI創新藥、人形機器人將改變世界。未來每個都將是AI人,每家公司都將是AI公司。3 房地產周期進入大分化時代,出現二八分化現象房地產長期看人口、中期看土地、短期看金融。隨著人口紅利結束、城鎮化進入尾聲、20-50歲購房人群減少、老齡化少子化到來,房地產告別高增長的普漲時代,但由於後房地產時代,人口往都市圈城市群集聚,未來房地產市場將呈現二八分化。2026年,預計20%人口流入的核心城市、核心區域將率先觸底,80%人口流出的低能級城市將面臨漫長陰跌。房地產市場走穩還需要政策繼續發力,比如放鬆限購、降低利率、大規模住房保障銀行收儲。2025年是房地產市場止跌回穩的重要一年,政策“以放為主”。除了個別城市外大部分城市限購限貸措施,國家推出保交樓,收購存量房,央行提供3000億元保障性住房再貸款等。當前政策以“放”為主,起到一定托底作用,多數城市庫存去化周期仍處高位,居民購買力、信心存在不足。核心城市以價換量,大部分三四線樓市有價無市、房價持續下行。10月商品房銷售面積和銷售額同比分別為-18.8%和-24.3%,較9月降幅擴大8.2和12.5個百分點。2026年房地產政策有望轉向加碼鼓勵,市場調整進入尾聲。關注三大訊號:一是政策從“放鬆”到“加碼鼓勵”。2025年8月至9月,北京、上海和深圳等核心城市相繼最佳化了限購措施,未來一至兩年,全面放開是大勢所趨。而且有望看到出台購房補貼、貸款貼息等政策,鼓勵居民購房。二是經濟拐點出現,領先指標回升。經濟復甦,就業和居民收入上漲,樓市才有支撐,配合上政策催化才能啟動購房需求。關注製造業PMI新訂單指數。企業新訂單是是居民就業和收入的先行指標。2015年8月,新訂單指標觸底回升後,北京、上海等一線城市房價啟動上漲。2020年8月新訂單指標突破52%後,樓市迎來小陽春。三是成交縮量,供求逆轉。房價是供求的結果,如果未來熱點城市人口不斷流入,供地持續減少,地價上漲,供求格局就會改善。2024年中國住宅用地成交面積同比大降18%,但是優質地塊很受青睞。2025年北京上半年土拍9宗地塊溢價成交。10月份,上海第八輪土拍,徐匯濱江等土地溢價成交,表明市場對核心城市、核心區域長期看好。我們預計2026年一線、強二線核心區域的房價將逐步觸底,但是低能級城市、核心城市的遠郊區仍將陰跌。未來的發展重點將集中於建構房地產發展新模式、最佳化保障房供給、建設“好房子”以及大力實施城市更新行動。4產能周期新舊交替,傳統行業在市場力量和反內卷推動下產能出清,新質生產力帶動大規模新基建投資產能周期新舊交替,本輪產能周期2018年開始上行,2022年開始下行。產能調整受企業利潤與資金情況影響,也受到裝置更替相關政策的影響,但根本上還是取決於企業對於經濟增長前景和長期需求的預期。中國自1978年改革開放以來經歷了五輪的產能周期,平均每輪周期持續10年左右。經過2015年市場自發的出清,疊加2016-2017年中國“三去一降一補”的供給側改革超預期地去產能,2018年市場產能基本出清完畢,進入上行周期,後隨著疫情擾動2022年以來步入下行周期,工業產能利用率水平整體回落,企業營收與投資意願也持續下滑,全部A股(非金融)資本性支出同比增速逐年下降並於2024年轉負。2024年全部A股(非金融)資本性支出同比增速-5.6%,2025年前三季度增速-2.3%。展望未來,產能周期呈現新舊交替特點:一是傳統行業在市場力量和反內卷推動下產能出清,有望供求格局改善,價格和企業利潤修復。2024年開始的大規模裝置更新政策一定程度上延緩了本輪產能去化,而2025年“反內卷”政策加速了產能去化處理程序。在自發市場出清與反內卷政策的共同作用下,產能周期持續磨底,上中游物價回升和企業利潤修復,當前已觸及轉折點:PPI近三月止跌回升;8、9月工業企業利潤當月同比增速分別為21.5%和18.2%,今年以來全部A股(非金融)銷售利潤率走穩回升;三季度工業產能利用率止跌回升至74.6%。二是新質生產力帶動大規模新基建投資。2026年作為“十五五”開局之年,人工智慧軍備競賽將帶動新一輪資本開支周期開啟。從蒸汽機技術到人工智慧的崛起,每一次技術革命都在重塑世界格局。當前,以人工智慧為核心的第四次科技革命,正推動中美展開一場爭奪AI霸權的軍備競賽。美國對人工智慧的政策態度從“引導和扶持”轉為“必須領先”;中國“十五五”規劃提出“搶占人工智能產業應用制高點”,到2027年,新一代智能終端、智能體等應用普及率超70%,到2030年普及率突破90%,智能經濟將全面引領中國經濟增長,從“網際網路+”全面轉向“人工智慧+”。華爾街60%的風投資金投向人工智慧領域,科技巨頭(如微軟、Google、阿里、騰訊)資本開支屢創新高、用於建設資料中心和採購晶片。這場由人工智慧驅動的新基建浪潮,將拉動算力、電力與銅等工業關鍵節點的大規模裝置投資,帶動整個產業鏈的資本開支進入上行周期。5庫存周期觸底回升,回升力度受長周期力量壓制“反內卷”政策推動工業產品價格和企業利潤回升,庫存周期從被動去庫存向主動補庫存過渡,但回升力度偏弱,行業分化加劇,內需修復的基礎仍有待加強,外需面臨不確定性。本輪庫存周期觸底回升,處於從被動去庫存向主動補庫存過渡的階段。庫存周期包含主動補庫存(繁榮)、被動補庫存(衰退)、主動去庫存(蕭條)和被動去庫存(復甦)四個階段。2000年-2019年10月中國經歷了六輪完整的庫存周期,2019年11月進入第七輪庫存周期,2023年7月中國工業企業產成品存貨同比降至1.6%、歷史較低水平,中國庫存周期進入一段非典型的被動去庫存磨底期。2026年物價有望走出通縮,三大因素:反內卷,外部輸入性通膨,新質生產力投資。一是“反內卷”推動供給端結構持續最佳化。“反內卷”政策預計將在太陽能、生豬等行業繼續推行,有助於改善行業競爭格局,推動供給端有序收縮,為物價提供支撐。二是外部輸入性通膨預計將持續。人工智慧等新興產業快速發展,帶動銅、稀土、鋰等關鍵原材料需求上升。中國作為銅等大宗商品的淨進口國,國際價格上漲會通過成本管道向中國工業品價格傳導,形成輸入性通膨。三是新質生產力投資帶動物價回升。受益於AI大模型的技術性突破和科技創新相關政策的支援,這些新興行業和未來產業的需求預期持續擴張,拉動其資本開支進入快速上行期。作為“十五五”開局之年,基建投資將發揮穩增長作用;製造業投資則有望在出口韌性、產業升級以及“反內卷”政策改善企業利潤的支撐下保持穩定。6債務周期仍待破解,居民部門資產負債表仍需修復,財稅改革提速破題土地財政居民部門受房地產市場影響仍在去槓桿,新質生產力企業大規模加槓桿,地方政府財政擴張受債務約束,2026年有必要加大財政、貨幣政策逆周期調節力度,重點支援新質生產力。回顧2025年,貨幣政策定調“適度寬鬆”,5月降准25bp、降息10bp,LPR下調10bp。社融、M2保持較高增速,7月達到最高增速9%、8.8%。貨幣不可謂不寬,但遲遲不見信用寬鬆,信貸增速從年初7.5%降至10月6.5%,尤其是居民端貸款需求疲弱。這在過往的金融周期中是比較罕見的。一是居民尚處於去槓桿階段。2026年重在修復居民資產負債表。中長期貸款通常佔居民貸款的5成以上,主要為房貸;對應到資產端,房地產約佔居民財富的60%。房地產市場調整持續五年,居民槓桿率自2021年以來持續橫盤,2024年Q1以來處於緩慢下降趨勢,從62.3%降至2025年Q3的60.4%。部分居民購房觀望濃厚,部分選擇提前還貸,這是居民端融資需求疲軟的重要原因。2026年需繼續降低利率。如果考慮保護銀行淨息差,可考慮房貸貼息,財政發力降低居民住房負擔,鞏固房地產市場走穩回升,修復居民資產負債表。二是企業部門槓桿率增長放緩,2026年“反內卷”下半程帶動企業盈利和投資復甦。企業部門整體呈加槓桿的趨勢,但速度放緩。2025年一、二、三季度非金融企業部門槓桿率分別變化5.3、0.3、0.4個百分點。企業投資主要涉及擴產、裝置、廠房等中長期規劃,與企業盈利、中長期預期相關。下半年“反內卷”政策推動PPI觸底回正、改善企業盈利,但短期內引起產能收縮,民間投資累計增速自6月再次轉負,企業融資需求提振需等待反內卷效果傳導至下游。三是政府部分加槓桿,但受地方財力所限,實際工作量偏慢。2026年財政改革將提速,釋放地方政府發展經濟的動能。政府部門是逆周期加槓桿的主力,2025年前三季度中央政府、地方政府槓桿率分別提高3.2和3.5個百分點。但財政收入轉化為實物工作量不及預期。自4月以來,狹義基建投資累計增速從5.8%的高點降至10月-0.1%,一般公共預算支出累計增速從4.6%降至2.0%。主要原因是地方政府化債壓力仍大、專項債項目儲備不足。解決方法在於加快財政體制轉型,合理調整地方財權與事權,發揮財政穩增長的作用。7全球展望:受關稅影響,全球經濟承壓,美國經濟冰火兩重天,聯準會寬鬆預期打開,但仍存四大變數2026年,受關稅影響,全球經濟承壓;美國經濟冰火兩重天,任工智能浪潮帶動經濟增長,但傳統製造業競爭力受關稅和通膨影響削弱,就業市場和通膨粘性對美國經濟構成挑戰;新任聯準會主席履新,預計鴿派,聯準會開啟積極的寬鬆周期,可能會持續大幅降息;川普面臨中期選舉,不排除政策多變;中美經貿關係短暫緩和,變數仍然較大。一是受制於高關稅,全球經濟放緩,主要經濟體呈分化態勢。2025年美國掀起全球貿易戰,邊打邊談,根據耶魯大學測算,美國平均實際關稅稅率從年初2.4%大幅提高到11月17日的16.8%,為1935年以來的最高水平,其影響將在2026年繼續顯現,全球貿易和經濟增速進一步放緩。IMF預測2025年全球經濟實際增速3.16%,2026年3.09%。美國經濟大機率“軟著陸”,面對2026年中期選舉,川普的政策措施將圍繞“穩經濟、拉選票”。歐元區受益於能源價格穩定與財政政策協同,增速有望回升;日本經濟依託“物價-工資-利潤”延續復甦,但日本勞動力市場的持續性有待觀望。印度、越南等東南亞經濟體則依託供應鏈轉移紅利,但依賴外部需求的特性使其易受全球貿易波動影響。二是美國經濟冰火兩重天。新一輪人工智慧浪潮支撐經濟增長,但勞動力供需雙降和通膨粘性構成美國經濟挑戰。受高利率、需求不足等因素拖累,美國二季度住宅投資和建築投資明顯下滑,私人投資環比下滑13.8%,同比僅增長0.02%。但以人工智慧為代表的裝置投資逆勢增長,環比增8.5%、超過個人消費支出的2.5%,托底經濟。勞動力市場放緩,通膨壓力未完全消除。9月非農就業崗位增加11.9萬個、高於市場預期,但失業率已升至4.4%;ADP 10月私營部門就業減少4.5萬個崗位,為創兩年半以來最大降幅。聯準會曾多次強調“關稅對通膨的衝擊是一次性的”論點,但貿易政策的不確定性造成的通膨上行仍對經濟造成衝擊。三是聯準會寬鬆周期打開,但降息路徑仍不明確。9月聯準會重啟降息,累計下調50bp至3.75-4.0%,但FOMC內部對經濟前景和貨幣政策節奏存在較大分歧,12月由於就業和新訂單資料放緩,降息預期再度升溫。隨著新聯準會主席,更加積極的降息策略可能在2026年出現。未來降息路徑還取決於川普與聯準會博弈。截至2025年11月18日,美國國債總量創歷史新高、累計突破38.2兆美元,需要低利率維持借新還舊。川普主張激進降息策略,不滿於鮑爾表現,甚至揚言要解僱鮑爾。2026年5月鮑爾任期結束,川普團隊已經提前籌備提名人選,預計下一任聯準會主席將從現任聯準會理事克里斯托弗·沃勒和米歇爾·鮑曼、國家經濟委員會主任凱文·哈塞特、貝萊德高管裡克·裡德等人中選出。川普可能潛在影響新一屆聯準會成員,採取鴿派降息策略。四是川普面臨中期選舉,不排除政策多變或反轉。2026年川普的政策重心將逐步從關稅轉向內政,將圍繞“穩經濟、拉選票”,強化財政主導。這一轉變既出於政治考量,也受制於司法現實。預計今年底或明年初,美國最高法院將對川普使用《國際緊急經濟權力法》(IEEPA)徵收全球關稅權力作出裁定,美國有效關稅稅率將大幅下滑。但川普政府仍可以利用《1974年貿易法》的第122條、第201條和第301條、1962年《貿易擴展法》的第232條等備用授權,迅速重建部分關稅壁壘。8政策展望:“十五五”開局之年,五大政策值得期待,迎接開門紅當前有必要啟動新一輪經濟刺激政策。2025年經濟前高後低,一二三季度GDP增速分別為5.4%、5.2%、4.8%,逐季放緩,消費、投資、地產銷售偏弱,近期物價、企業盈利有觸底回升跡象,但基礎仍不牢固,疊加明年初高基數、聯準會降息打開政策空間、人民幣匯率走穩,是政策新一輪發力的重要窗口期。從長期看,2026年作為“十五五”開局之年,關係中長期目標的奠基,如果要實現2035年總量翻番、人均GDP翻番的目標,仍需保持5%左右經濟增速。展望2026年的政策周期,總基調預計延續寬鬆,重點領域加強鼓勵和刺激,五大政策值得期待。貨幣政策:保持適度寬鬆,加大重點領域支援力度,預計2026年繼續降准降息2次左右。2026年貨幣政策適度寬鬆有望延續,近期央行重啟買斷式國債逆回購、5000億元新型政策性金融工具已開始投放。央行在Q3貨幣政策執行報告中強調“保持不同利率水平合理均衡”,貨幣政策更專注於價格型訊號傳導、疏通訊用傳導機制、確保流動性精準注入科技創新、綠色發展等關鍵領域。財政政策:更加積極,在化債和擴張中尋求平衡,赤字率與超長期國債力度不低於2025年。2025年預算把赤字率提到約4%,並配套更大規模的超長期特別國債與地方專項債投放;同時,針對隱性債務的三年期約6兆元置換安排與各省專項再融資債的推進,意在降成本、延久期、去風險,為地方恢復正常公共服務與重點項目投資騰挪空間。2026年在此框架下更可能是節奏最佳化、結構調度,赤字率仍維持4%左右,按照5%經濟增速的147兆GDP計算達到5.88億元,預計新增專項債額度4.5-4.9兆元,置換債2兆元,特別國債1.5兆元,廣義赤字率可達9.4%以上。專項債優先保障科技創新、民生與新型投資項目的財政強度,同時用再融資與規範化債安排繼續穩住局部高風險地區。房地產政策:從止跌回穩到全面放開,建構新模式,鼓勵好房子。後房地產時代供求關係發生重大變化,房地產政策的重點從防過熱轉向防過冷。我們倡導的三招救地產有望取得進展:1)住房銀行收儲作為保障房,組建5兆以上的大型住房銀行收儲,改建為保障房,既有助於去庫存和現金流,又有利於中低收入者住房保障。2)降低利率和稅費,包括降低存量房貸利率,配合降低相關稅費,減少購房成本,為居民減負,並通過降准等降低銀行負債成本。3)全面取消限購限貸等行政化措施,釋放剛需和改善型需求,“十五五”規劃建議提出清理住房不合理限制措施。廣州已全面放開,後續其他一線城市也應該逐步全面放開。長期看,以“城市群戰略、金融穩定、人地掛鉤、房地產稅和租購併舉”為核心,可以加快建構房地產新模式。內需政策:投資於人和投資於物相結合,提高居民消費率。在物上,仍以裝置更新+以舊換新為硬抓手。新能源車購置稅減免延至2027年底、預計累計減稅約5200億元,以舊換新規模預計3000億。在人上,中國計畫在未來十年內將中等收入群體由目前約4億人翻倍至2035年的8億人,預示著一系列促進就業穩定、教育提質、技能培訓的措施將密集落地,提升人力資本價值進而帶動收入水平上台階,同時完善社會保障政策,讓居民能花錢、敢花錢。預計2026年會出台鼓勵提高勞動報酬、擴大中等收入群體的政策,比如提升最低工資標準、擴大工資指導線實施範圍、增加對低收入群體的轉移支付等;教育、醫療、養老等領域,將進一步完善社保體系並推出針對性的補貼或減免政策。供給端“反內卷”:有序化解過剩產能、引導優質產能擴容、提升產業鏈價值轉化。2025年7月初,工信部與14家大型太陽能企業召開會議,明確提出要“堅決遏制低價無序競爭”“推進淘汰落後產能”以解決太陽能行業嚴重的產能過剩與價格戰問題,後續政治局會議也有規範企業競爭秩序等表述。2026年,“反內卷”不僅僅是價格治理,其含義將深化為釋放優質資源、提升投資效率,配合中國經濟轉型期的宏觀政策取向。9  大類資產展望:股市“信心牛”,AI爆發,大宗元年,房地產二八分化我們在2024年9月市場低谷提出“信心牛”和“東昇西落”,提出隨著宏觀政策迎來超預期放鬆拐點,各界對中國資產和經濟前景的信心改善。展望2026年:A股信心牛繼續,牛市邏輯仍在,預計走出慢牛長牛行情,主線是科技,關注AI、算力、半導體、智能駕駛、創新藥、儲能、固態電池、商業航天、軍工等。2025年中國股市迎來牛市,上證綜指站上4000點,創10年新高,科技類股領漲。政策牛+科技牛+水牛疊加的信心牛邏輯仍在,政策仍處於寬鬆周期,AI引領的科技革命尚處於初期,利率持續下降提升股市估值。有三大利多支援牛市,分別是:聯準會降息周期;12月經濟工作會議召開,會議前後將會推出一系列利多措施;十五五開門紅,AI+將成為重點投入的新基建,這關係到打造中國經濟新引擎和大國競爭制高點。聯準會降息和去美元化,大宗元年、非美股市受益。截至12月4日,漲幅居前的5類資產有COME白銀90.8%、韓國綜指67.9%、COMEX黃金52.0%、中國創業板指數漲43.2%、恆生指數28.4%;漲幅居後的3類資產有比特幣、美元、螺紋鋼,分別跌6.7%、8.9%和9.2%。核心邏輯是全球貨幣政策轉向寬鬆、全球流動性擴張;AI 科技革命帶來的結構性需求擴張,加大銅鋁等有色金屬需求,提高風險偏好;川普政府政策引發全球“再通膨”敘事,去美元化加速,人民幣資產重估;地緣動盪。人民幣匯率升值,主因聯準會降息周期、中美利差縮小以及中國出口競爭力提升。房地產二八分化,一二線城市核心區域房價有望觸底,低能級城市有價無市。20%人口流入的核心城市核心區域將率先觸底回升,房價走穩回升需關注政策加碼、經濟回暖、成交量三大訊號。 (澤平宏觀展望)
中國GPU集體爆發
2025年底,A股最火爆的主題,莫過於“中國國產GPU”。2025年12月5日,中國國產GPU玩家摩爾線程於科創板IPO上市,上市首日股價大漲468.78%,總市值超達3055億元,創下IPO稽核僅耗時122天的年度最快紀錄、及A股全面註冊制實施以來的最高打新收益紀錄。僅僅12天后,12月17日,上市首日的沐曦股份暴漲692.95%,總市值突破3300億元,其漲勢甚至比摩爾線程更驚人——按104.66元/股的發行價計算,股民打新中一簽便可盈利近30萬元,堪稱”大肉簽”。▲來源:優勢資本而在摩爾線程、沐曦股份之後,“GPU四小龍”的另外兩龍——燧原科技早已開啟了IPO之旅;壁仞科技則在今年1月2日正式在港交所掛牌,上市首日最高漲120%,成為首家“港股GPU概念股”。此外,礪算科技、曦望、瀚博半導體、格蘭非等眾多中國國產GPU創業公司也正奮起直追,更不用說已經上市的海光資訊、寒武紀、芯原股份等等GPU/AI晶片玩家,均迎來了技術、產品、融資、落地的全面突破。中國GPU,迎來了一次真正的爆發。然而僅僅在3年前,它們中的不少創業者,還曾被逼到最絕望的“至暗時刻”。“寒冬來了。”2022年,這是縈繞在所有中國國產晶片從業者心頭的一句悲言。就在2022年中秋節前,中國“AI晶片”四小龍之首寒武紀再次遭遇股東“清倉式減持”,公司第四、第五和第七大股東合計賣出了手中近78%的寒武紀持股。彼時,“跌跌不休”的寒武紀市值已下探到270億元,較巔峰時的千億市值跌沒了近八成。“寒王”作為上市公司,尚落得如此狼狽,GPU創業公司們則幾乎全軍覆沒:跟寒武紀一樣,日後的“GPU四小龍”燧原科技、摩爾線程都遭遇了資本離場,導致量產關鍵節點困難頻頻,不得不壓縮成本四處尋求“輸血”。各家公司的帳本,也都格外難看:沐曦股份當年虧損高達7.7億元,收入是幾乎可以忽略不計的42.7萬元;壁仞科技更是在2022年全年未能宣佈任何一筆融資,幾乎在靠“啃乾糧”度日。這批中國國產GPU創業公司普遍成立不到3年,正處於晶片研發任務最重、產品落地最緊要,也最需要錢的氣口——僅僅一款7nm晶片的設計加流片費用都能高達數億人民幣,其他環節如EDA、軟體、驅動、架構、驗證、測試更是個個都在“燒錢”,但卻在找錢上遇到了最嚴峻的挑戰。2022年相當長時間內,大量以上海為總部的GPU公司幾乎陷入停擺狀態。雪上加霜的是,年底,美國再次收緊對華高端晶片出口管制,中國國產GPU企業不僅面臨著更嚴峻的技術獲取環境、更劇烈的供應鏈不確定性,風險厭惡型資本也對“中國國產GPU”概念進一步拒之門外。那個冬天,冷得透骨,至今仍是很多行業中人最深刻的記憶。命運的轉折,往往藏在技術革命的裂縫中。2022年11月底,一位意料之外的“神秘嘉賓”,出現在太平洋彼岸。ChatGPT來了。幾乎在一夜之間,以ChatGPT為代表的大模型火遍了世界各地;在人類技術發展的歷史上,全球科技產業第一次以前所未有的速度達成了共識——要搞大模型。而中國國產GPU公司們,幾乎被這個從天而降的“餡餅”砸懵了。動輒百億參數的大模型訓練,堪稱AI算力的“吞金獸”,其對算力的飢渴,讓GPU從“硬體產品”躍升為“戰略資源”,遊戲規則也因此被徹底改寫。在此背景下,輝達、寒武紀市值一路瘋漲,晶片創業公司迎來大面積資本重估。剛從生死線上下來的中國國產GPU玩家們,也立馬轉身蹦極。雖然跟輝達、英特爾等海外巨頭動輒一代晶片百億美元的研發投入比起來,創業公司們能夠撬動的資源只是杯水車薪。但在2023~2025年這幾年間,中國國產GPU玩家們依然緊緊抓住時代機遇,大力投入研發,快速推動自家GPU產品升級,擁抱市場變化。▲來源:摩爾線程例如,摩爾線程只用了四年時間就完成了數代全功能GPU迭代,不久前的MUSA開發者大會上,它更是發佈了計算效能提高10倍的GPU架構“花港”,與支撐兆參數模型訓練的工程能力的萬卡智算叢集“誇娥”。壁仞科技的BR100晶片也實現了半精度浮點超過1000T,在超算中心市場實現出貨量同比增長超300%;沐曦股份的下一代C700,直接將性能瞄準了輝達H100,預計明年下半年流片。美國不斷加碼的管制措施,雖在短期內為中國國產GPU玩家帶來了不小的融資壓力,但也進一步刺激了中國科技廠商對自主可控GPU的重視。“大廠們”出於供應鏈安全考慮,紛紛加快部署中國國產GPU算力。更幸運的是,大模型從底層技術上,給了所有GPU廠商一次“換道超車”的機會。大模型技術的底層是Transformer架構,它雖然跟上一輪人臉識別、圖像識別技術一樣被稱為“人工智慧”,但其最底層的演算法,卻跟上一輪圖像識別所倚仗的深度神經網路(Deep Learning Network)有所不同。舉個例子,GPU包含硬體、也包含軟體部分。硬體部分很好理解,在人們看得見、摸得著的那塊金屬板上,所謂“7nm製程”、“電晶體數量”說的都是硬體。軟體部分則是一堆程式碼,負責“指導”冷冰冰的金屬塊去響應使用者發出的指令。硬體問題雖然難,卻並不是“無解”。軟體部分可太難了——過去十多年裡,全世界幾千萬名程式設計師在輝達GPU的軟體上不斷創作、最佳化、報BUG、修改,形成了一個牢不可破的“生態系統”,為美國GPU豎起了極高的生態壁壘。然而,這套生態是建立在上一代人工智慧技術(大模型出現之前)之上的。2022年11月,大模型橫空出世,突然給全世界“掀了桌子”。輝達做了30年的GPU,猛一回頭發現,自己跟中國這些成立不到3年的GPU公司,站在了同一起跑線上。這一天,中國GPU等了十年。中國GPU能走到今天,太難了。20世紀80年代,中國晶片產業曾經走過一段“造不如買,買不如租”的道路。當時,為了快速獲取經濟效益,一度被加大投入的中國晶片產業,轉而大規模引進國外技術和生產線,減少自主研發投入,也讓整個晶片產業陷入“引進—落後—再引進—再落後”的循環。晶片是一個龐大的概念,既包括CPU、GPU這些我們熟悉的品種,也包括ASIC(定製化專用晶片,如AI專用晶片)、儲存晶片、DSP數字訊號處理器等等。其中,CPU是電腦的“主司令”,GPU則是專攻大規模計算的“大將”。在早期資源有限時,中國國產晶片研發往往被迫將資源向“主司令”傾斜,自然也讓中國國產GPU的發展變得更加艱難。比CPU更難。直到2014年4月,景嘉微電子才成功研發出中國首款中國國產高性能、低功耗GPU晶片JM5400。彼時,輝達的獨立顯示卡的全球市場份額已經達到驚人的‌76%‌,連中國著名的超級電腦“天河一號A”,都被迫用的是輝達的GPU。然而,第一塊GPU僅僅是漫長征程的起點。因為底層技術空白點較多,IP大多受制於國外廠商,產品前端穩定性不理想,很長時間內,中國國產GPU即便是研發出來,也很難在主線中高端電子產品上得到普及化應用。沒有應用,就沒有銷售收入,沒有應用,也沒有客戶反饋,無法形成研發、應用、改良,提升的正向循環,這不但嚴重制約相關公司的收入和發展,也嚴重制約研發進度與品質。即便強大如華為海思,其手機晶片中的GPU性能也長久以來存在發熱、相容性差等問題,直到麒麟910手機晶片發佈後才逐漸走上正軌。而中國國產GPU的真正破局,始於一場被外部壓力“逼”出來的產業進擊。2017-2018年,美國步步緊逼的技術封鎖與上一輪人工智慧浪潮相遇,讓第一批中國國產“AI晶片”爆發,寒武紀、深鑑科技(後被美國晶片公司賽靈思收購)、地平線等明星創業公司都在此輪誕生。AI晶片是一種專用晶片,往往只針對少數AI演算法量身打造,設計難度更低,能更快緩解“缺芯”的燃眉之急。GPU則是個更強大的“全能將軍”,但設計難度更大,所需時間更長。直到2020年前後,經過了多年的市場培育、人才培養,中國GPU生態才慢慢有了成熟的苗頭。摩爾線程、沐曦股份、壁仞科技等一批中國國產GPU企業也正是這個時期相繼成立,並且開始將目標直指通用GPU,決心在國際巨頭的主賽道上“掰掰手腕”。與中國最早一批篳路藍縷的GPU研究人員不同,這一批中國國產GPU玩家大多都有著資深的晶片行業從業經驗,甚至是在國際巨頭公司有著長期紮實的歷練,他們深知自己面對的殘酷現實,但也對如何突圍更有思維和路徑。但市場競爭也是慘烈的。真正熬過2022年那場“寒冬”的晶片公司並不多,根據企查查資料,2023年,1.09萬家中國晶片相關企業進行工商註銷、吊銷——平均每天有30家晶片公司消失。2023年底,美國還故伎重演地將“GPU四小龍”之摩爾線程、沐曦半導體列入實體清單,這意味著兩家企業將無法獲得任何含美國技術產業工具。此後,重慶某GPU獨角獸被媒體報導因遭遇資金危機,公司瀕臨解散,400多位員工全部終止合同;曾經在2015年推出首款具有中國國產自主智慧財產權GPU的西安某半導體同樣被報導陷入裁員風波;上海一GPU創業公司被報導資金鏈斷裂,陷入營運困難。中國國產GPU每往前走一步,血淚都濕透了腳印。客觀來說,中國的GPU技術跟美國領先水平比起來,還有很大差距。當前,中國國產GPU產品普遍拿來對標的H100 GPU,已經是輝達上一代的技術產物——最新的輝達H200 GPU性能幾乎翻了一倍。而在中國國產GPU產業終於熬過寒冬,迎來第一縷春光時,美國近期卻突然宣佈放寬GPU管制,路透社更是替輝達放出消息稱,2026年春節前,輝達就能將一批全新的H200 GPU交付給中國客戶。▲來源:輝達中國美其名曰放寬管制,其實質是看到中國GPU企業持續突破,持續被中國客戶認可,於是著急忙慌,擔心中國GPU就此突圍,所以使出最大的力氣來搶市場。目的是,剿殺中國GPU於半途。而且,是用市值超過5兆美元,能輕鬆投入上百億美元進行一代晶片架構研發的超級殺手,來剿殺無論從企業自身那個層面比,都與之相距甚遠的根本不是對手的對手。這招夠狠的。但話又說回來了,中國科技產業,什麼樣的對手沒有遇到過?什麼樣的仗沒有打過?打不垮我們的,只會讓我們更強大。從曾經的一片荒蕪,到如今第一梯隊的集結與資本市場的認可,中國GPU產業在外壓內驅的雙重力量下,已駛入了自主發展的快車道。中國國產GPU的奮鬥歷程,將是中國自主創新精神“壓不倒、打不垮、擋不住”的最佳詮釋。最重要的,如今百年未有之大變局的大國科技發展趨勢,以及大模型取代深度神經網路,成為新一代人工智慧技術的領導者,都為中國國產GPU玩家們帶來了甚至比自身努力更重要的:歷史處理程序的加持。中國GPU,已經站在了百年難遇的“換道超車”良機之上。歷史的筆,已交到我們這一代人手中。 (華商韜略)
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)
【CES 2026】老黃All in物理AI!最新GPU性能5倍提升,還砸掉了智駕門檻
剛剛,輝達CEO黃仁勳穿著鱷魚皮夾克,在全球最大消費電子展CES 2026上發佈AI新品。這是五年來,輝達首次來到CES卻沒有發遊戲顯示卡,態度很明確:全力搞AI。全力搞出來的結果也讓圍觀群眾直呼:競爭對手如何追上輝達?下一代Rubin架構GPU推理、訓練性能分別是Blackwell GB200的5倍和3.5倍(NVFP4資料格式)。除此之外,老黃還帶來了五大領域的全新發佈,包括:面向Agentic AI的NVIDIA Nemotron模型家族面向物理AI的NVIDIA Cosmos平台面向自動駕駛開發的全新NVIDIA Alpamayo模型家族面向機器人領域的NVIDIA Isaac GR00T面向生物醫學的NVIDIA Clara同時,輝達宣佈持續向社區開源訓練框架以及多模態資料集。其中資料集包括10兆語言訓練token、50萬條機器人軌跡資料、45.5萬個蛋白質結構、100TB車輛感測器資料。這次的核心主題,直指物理AI。用網友的話來說:這是輝達將護城河從晶片層進一步拓展到全端平台層(模型+資料+工具)的體現,通過這種方式可以持續拉動更多GPU與基礎設施投入,並顯著增強使用者與生態的鎖定。值得一提的是,咱國產開源模型又雙叒被cue到了。老黃在演講開篇便提及了DeepSeek,Kimi K2、Qwen也出現在PPT展示頁上。正式推出Vera Rubin NVL72老黃正式推出輝達下一代AI資料中心的機櫃架構Vera Rubin,披露架構細節。六大核心組件共同構成Vera Rubin NVL72機架:Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4資料處理單元(DPU)、Spectrum-6 Ethernet switch。在NVFP4資料類型下,Rubin GPU推理性能可達50 PFLOPS,是Blackwell GB200的5倍;NVFP4訓練性能為35 PFLOPS,是Blackwell的3.5 倍。為支撐這些計算能力,每顆Rubin GPU封裝了8組HBM4記憶體,提供288GB容量和22 TB/s的頻寬。隨著主流大模型轉向MoE架構,模型得以相對高效地進行規模擴展。然而,這些專家模組之間的通訊,對節點間頻寬提出了極高要求。Vera Rubin引入了用於規模內擴展網路的NVLink 6。它將單GPU的互連頻寬提升至3.6 TB/s(雙向)。每顆NVLink 6交換晶片提供28 TB/s的頻寬,而每個Vera Rubin NVL72機架配備9顆這樣的交換晶片,總規模內頻寬達到260 TB/s。NVIDIA Vera CPU整合了88個定製的Olympus Arm核心,採用輝達稱為“spatial multi-threading”設計,最多可同時運行176個線程。用於將Vera CPU與Rubin GPU進行一致性連接的NVLink C2C互連,其頻寬提升了一倍,達到1.8 TB/s。每顆Vera CPU可定址最多1.5 TB的SOCAMM LPDDR5X記憶體,記憶體頻寬最高可達1.2 TB/s。為將Vera Rubin NVL72機架擴展為每組8個機架的DGX SuperPod,輝達推出了一對採用共封裝光學(CPO)的Spectrum-X乙太網路交換機,均基於Spectrum-6晶片建構。每顆Spectrum-6晶片提供102.4 Tb/s的頻寬,輝達基於該晶片推出了兩款交換機。SN688提供409.6 Tb/s的總頻寬,支援512個800G乙太網路連接埠或2048個200G連接埠。SN6810則提供102.4 Tb/s的頻寬,可配置為128 個800G或512個200G乙太網路連接埠。這兩款交換機均採用液冷設計,輝達表示,與不具備矽光子技術的硬體相比,它們在能效、可靠性和執行階段間方面表現更優。隨著上下文窗口擴展到數百萬token,輝達還指出,儲存AI模型互動歷史的鍵值快取(KV cache)相關操作,已成為推理性能的瓶頸。此前黃仁勳曾表態:沒有HBM,就沒有AI超算。為突破這一限制,輝達推出新硬體BlueField-4 DPU,建構了一個新的記憶體層級,稱為推理上下文記憶體儲存平台(Inference Context Memory Storage Platform)。輝達表示,這一儲存層旨在實現鍵值快取資料在AI基礎設施中的高效共享與復用,從而提升系統響應速度和吞吐能力,並實現Agentic AI架構可預測、能效友好的規模擴展。這是Vera Rubin首次將輝達的可信執行環境擴展至整個機架等級。整體來看,每個Vera Rubin NVL72機架可提供:3.6exaFLOPS的NVFP4推理性能2.5exaFLOPS的NVFP4訓練性能54 TB的LPDDR5X記憶體(連接至Vera CPU)20.7 TB的HBM4記憶體,頻寬達1.6 PB/s為保障機架系統的持續高效運行,輝達在機架層面引入了多項改進,包括無纜化模組托盤設計,使元件更換速度顯著快於此前的NVL72機架;增強的NVLink彈性能力,實現零停機維護;以及第二代RAS引擎,可在不中斷服務的情況下完成健康檢測。另外,輝達表示,與Blackwell相比,Vera Rubin在訓練MoE模型時所需的GPU數量僅為四分之一;在MoE推理場景下,其每token成本最高可降低10倍。反過來看,這也意味著Rubin能在相同機架空間內,大幅提升訓練吞吐量,並生成遠多於以往的token數量。據介紹,目前用於建構Vera Rubin NVL72所需的六類晶片已全部從晶圓廠交付,輝達預計將在2026年下半年啟動Vera Rubin NVL72的規模化量產。自動駕駛全新開源模型系列發佈再來看輝達重磅推出的全新開源模型系列——Alpamayo,面向安全推理的自動駕駛。全球首款開源、大規模的自動駕駛視覺-語言-行動(VLA)推理模型Alpamayo 1,參數100億。它能夠讓自動駕駛車輛理解周圍環境,並對自身的決策行為做出解釋。模型接收車輛自身的運動歷史資料、多攝影機採集的即時視訊畫面、使用者指令三類輸入資訊,然後進行推理,之後生成具體的駕駛決策、因果推理結果、規劃出的行駛軌跡。配套推出的還有一款開源模擬框架——AlpacaSim。它支援在各種不同的環境與邊緣場景中,對基於推理的自動駕駛模型進行閉環訓練與評估。此外,輝達還發佈了一個包含1700小時駕駛資料的開源資料集。這些資料採集於全球最廣泛的地理區域與環境條件下,涵蓋了推進推理架構發展所必需的罕見及複雜真實邊緣場景。落地方面,據介紹,Alpamayo將率先搭載於2025年第二季度歐洲上市的梅賽德斯-奔馳CLA車型,後續將通過OTA升級逐步推送高速公路脫手駕駛、城市全場景自動駕駛、端到端自動泊車等功能,並計畫登陸美國市場。輝達基於自身技術建構的全球L4級自動駕駛與Robotaxi生態系統全景也亮相了,通過連接軟體開發商、整車廠/出行平台、硬體供應商,覆蓋全產業鏈。Nemotron再推專項模型NVIDIA Nemotron在AI智能體領域的新拓展,核心是在已發佈的Nemotron 3開放模型與資料基礎上,進一步推出針對語音、RAG以及安全三大場景的專項模型。其中,Nemotron Speech包含新的自動語音識別(ASR)模型,不僅語音識別性能強,而且能支援即時字幕生成這樣的即時低延遲場景,速度比同類模型快10倍。輝達表示,目前博世已採用該模型實現司機與車輛之間的互動。Nemotron RAG則搭載新的視覺語言模型,能精準處理多語言、多模態資料,有效提升文件搜尋效率。Nemotron Safety系列模型專注於增強AI應用的安全性與可信度,具體包括支援更多語言的Llama Nemotron內容安全模型,以及高精度檢測敏感資料的Nemotron PII模型。機器人推理大腦Cosmos升級活動現場,老黃宣佈輝達為機器人推出的懂推理的“大腦”Cosmos再度升級。Cosmos主要被用來生成符合現實世界物理規律的合成資料,自發佈以來,已被Figure、Agility Robotics、通用汽車等一眾知名機器人和自動駕駛公司採用。這次全新發佈了:Cosmos Reason 2:一款全新的、排名領先的視覺-語言推理模型(VLM)。它能夠幫助機器人與AI智能體更精準地感知、理解並與物理世界進行互動。Cosmos Transfer 2.5與Cosmos Predict 2.5:兩款領先的模型,可在各種不同的環境與條件下,生成大規模的合成視訊。輝達還基於Cosmos模型,為各類物理AI應用推出了專用的開源模型與參考藍圖:Isaac GR00T N1.6:一款專為類人機器人打造的開源視覺-語言-行動(VLA)推理模型。它支援機器人的全身控制,並整合了輝達Cosmos Reason模型,以實現更強大的推理能力與上下文理解能力。NVIDIA AI Blueprint for Video Search and Summarization:作為輝達Metropolis平台的一部分,該藍圖提供了一套參考工作流,可用於建構視覺AI智能體。這些智能體能夠分析大量的錄播及直播視訊,從而提升營運效率並保障公共安全。據瞭解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord等企業正採用Cosmos Reason模型,開發麵向交通與職場生產力提升的AI智能體。Franka Robotics、Humanoid和NEURA Robotics則利用Isaac GR00T模型,在機器人大規模量產前,對其全新行為進行模擬、訓練與驗證。針對醫療健康與生命科學的AINVIDIA Clara是專門針對醫療健康與生命科學領域的AI技術工具。核心目標是降低行業成本、加速治療方案落地,打通數字科研與實際醫療應用之間的壁壘。該系列中的多款專項模型各有側重:La-Proteina能設計原子級精度的大型蛋白質;ReaSyn v2在藥物發現階段就開始考慮“如何生產”的問題;KERMT可以預測潛在藥物進入人體後的反應,提前排查安全問題;RNAPro用來預測RNA分子複雜的3D結構,推進個性化醫療方案。模型之外,老黃表示輝達還將為研究者提供含45.5萬個合成蛋白質結構的資料集。總之,老黃的2026開年第一講,真是讓人眼花繚亂了…… (創業邦)
【CES 2026】黃仁勳罕見提前宣佈:新一代GPU全面投產
輝達2026年的首場重頭戲比以往來得更早。當地時間1月5日,在美國CES上,黃仁勳出乎意料地提前發佈了下一代AI晶片平台“Rubin”,打破了輝達通常在每年3月GTC大會上集中公佈新一代架構的傳統。AI競賽進入推理時代,輝達決定加速出擊。Vera Rubin已投產Rubin並非空降。早在2025年3月的GTC大會上,黃仁勳就已預告了代號“Vera Rubin”的超級晶片,並明確其將於2026年量產。此次在CES上,黃仁勳對Rubin平台進行了系統性發佈,Rubin成為輝達最新GPU的代號。“Rubin的到來正逢其時。無論是訓練還是推理,AI對計算的需求都在急劇攀升。”黃仁勳表示,“我們堅持每年推出新一代AI超級電腦,通過六顆全新晶片的極致協同設計,Rubin正在向AI的下一個前沿邁出巨大一步。”Rubin平台採用極端協同設計理念,整合了6顆晶片,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6交換晶片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6乙太網路交換晶片,覆蓋了從計算、網路到儲存與安全的多個層級。相比前代Blackwell架構,Rubin加速器在AI訓練性能上提升3.5倍,運行性能提升5倍,並配備擁有88個核心的新款中央處理器(CPU)。相比輝達Blackwell平台,Rubin平台實現推理token成本最高可降低10倍,訓練MoE(專家混合)模型所需GPU數量減少4倍。同時,Vera Rubin NVL72機櫃級系統和平台同步發佈,命名上非外界預計的NVL144。對此,輝達高管在溝通會上向21世紀經濟報導等記者指出,NVL72指的是72個GPU封裝單元,每個封裝內部包含2個Rubin Die,因此系統中實際包含144個Rubin Die,這並不意味著系統規模變化。在生態層面,Rubin已獲得頭部雲廠商和模型公司的集中響應。AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等均被列入首批採用名單。Rubin在CES的提前亮相,也引發了外界對輝達產品發佈節奏變化的關注。對此,輝達高管回應稱,目前構成Vera Rubin平台的六顆晶片已經全部到位,相關系統已在運行真實應用負載,並取得了積極結果。此次在CES上提前披露Rubin,主要是為了儘早向生態夥伴提供工程樣品,方便其為後續部署和規模化應用做準備。輝達同時強調,Rubin仍將按照既定節奏推進,計畫在今年下半年進入量產爬坡階段,這一時間安排與此前披露的路線圖保持一致。全端AI佈局隨著AI進入推理階段,黃仁勳展示的不只是Rubin平台。在CES演講中,輝達還發佈了一系列AI體系產品,包括開源模型、AI儲存、物理AI等。這是輝達的全端AI佈局,同時也是其在繼續釋放訊號:AI重心繼續從“訓練規模”轉向“推理系統”。具體來看,輝達發佈了推理上下文儲存平台(Inference Context Memory Storage Platform),這是一個專為推理場景設計的AI原生儲存平台。該平台由BlueField-4 DPU與Spectrum-X乙太網路支撐,在GPU與傳統儲存之間引入新的儲存層,用於高效管理和共享KV Cache,減少重複計算帶來的算力浪費。同時,黃仁勳特別強調了物理AI。在更長期的佈局上,輝達圍繞物理AI推進,發佈了一系列開源模型、開發框架和硬體平台,將AI能力從資料中心延伸至機器人、自動駕駛與工業邊緣場景。黃仁勳表示:“AI已經不再是一次性問答的聊天機器人,而是能夠理解物理世界、進行長期推理、使用工具完成真實工作,並同時保有短期和長期記憶的智能協作者。”面向機器人領域,輝達發佈了Cosmos與GR00T系列開源模型,用於機器人學習、推理與動作規劃。其中,Cosmos Reason 2是一款推理型視覺語言模型(VLM),使機器能夠“看見、理解並在物理世界中行動”;GR00T N1.6 則是一款面向類人機器人的推理型視覺-語言-動作(VLA)模型,用於解鎖全身控制能力。“機器人領域的ChatGPT時刻已經到來,”黃仁勳表示,“能夠理解現實世界、進行推理並規劃行動的物理AI模型,正在解鎖全新的應用場景。輝達覆蓋Jetson、CUDA、Omniverse 以及開源物理AI模型的完整技術堆疊,正在賦能全球合作夥伴,通過AI驅動的機器人重塑各個行業。”在自動駕駛領域,輝達發佈了Alpamayo開源模型家族,定位為面向“長尾場景”的推理型自動駕駛基礎模型。該體系配套發佈了AlpaSim高保真模擬框架以及覆蓋1700多小時駕駛資料的開源資料集,用於訓練和驗證基於推理的自動駕駛系統。黃仁勳表示,輝達的首款AV車將於第一季度在美國推出,其他地區緊隨其後。從Rubin平台的提前亮相,到推理儲存與物理AI的同步推進,輝達正在將AI基礎設施的競爭推向“系統工程能力”。在這一階段,真正拉開差距的,已不只是晶片算力本身,而是從架構、系統到生態的整體交付。 (21世紀經濟報導)
🎯台股再創歷史新高,你是怕被割、還是怕沒上車?Line@連結:https://lin.ee/mua8YUP🎯「大盤創新高,現在進場是不是最後一棒?」如果你也在怕被割, 教你先看一個指標就好大盤漲幅 vs. 融資增幅。把大盤想成跑步距離,融資想成喘氣聲。目前大盤漲約68.6%,融資只增65%。跑得比喘得多,身體還很健康。真正會出事,是哪一天?👉大盤不動了,融資卻還在暴衝👉大家只談賺錢、不談風險👉市場開始「發瘋」既然現在還沒發生我們不必猜頭、自己嚇自己而且AI真正的大戲,才正要開始。為什麼?因為2026年,不是AI結束,是AI真正落地的元年。雲端算力只是第一棒。接下來,是「硬體全面接棒」。🔥 第一站:台積電法說+CES很多人說台積電1500是天花板?但2026年,1500會是地板。二奈米量產、資本支出只會往上。神山一動,供應鏈就是「真金白銀」。👉再看CES。今年主題只有一句話:AI Forward。意思很簡單:AI不只在雲端,而是進到你手機、AR眼鏡、穿戴裝置、機器人裡。AI要「用得到」,不是「聽得到」。⚡ 接棒演出的四大關鍵字,記好:1.CPO矽光子:傳輸大爆炸400G→800G →1.6T光進銅退,沒有模糊空間。這不是升級,是換一條高速公路。2.ASIC:雲端巨頭的省錢神器GPU太貴、太難搶?自己設計最快。2026年ASIC成長速度直接輾壓GPU。3.記憶體+PCB:最粗暴的利多缺貨+漲價=獲利直接跳級。🔴想知道 2026 第一季,哪一檔最先噴?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)